AI продължава да се обърква. Ами ако не може да се поправи?
Чатботът говореше цялостни нелепости. „ За да повишите силата на виргейт, добре е да внушите групови танцьори “, сподели един консуматор. „ Пристигнах. Аз съм за. Аз съм за, аз съм от, аз съм това “, сподели той на различен.
Някои консуматори се майтапиха, че е погълнал киселина - или прекалено много Джеймс Джойс. Други откриха, че говореше като британски екскурзиант в Марбея: „ Muchas gracias за разбирането ви, ще се погрижа занапред нататък да сме кристално чисти като вода. “ Беше 21 февруари и ChatGPT беше развален.
OpenAI, който ръководи ChatGPT, призна казуса и го поправи бързо – което е може би най-малкото, което бихте очаквали от компания, неотдавна оценена на 80 милиарда $. Той изясни, че актуализация е „ въвела неточност в метода, по който моделът обработва езика “.
Въпреки това, по-малко трагичните дефекти на ChatGPT остават рутинно събитие. Сега би трябвало да дава отговор на запитвания с предизвестия и подтекст, вмъкнати като функционалности за сигурност. „ Само аз ли съм, или ChatGPT4 става все по-малко добър в работата си? Все по-тъп? “ физикът Дейвид Дойч, ранен възприетел на технологиите, се оплака предишния месец.
ChatGPT също постоянно „ халюцинира “ – т.е. измисля погрешна информация. Помолен да генерира научни резюмета, той измисли 30 % от препратките; нямаше действително усъвършенстване сред продуктивността на версия 3.5 и версия 4.
Можете да опитате това сами, като помолите ChatGPT да посочва английските министър-председатели с две Т в името им. Неговият отговор заслужава да бъде представен напълно: „ 1. Маргарет Тачър 2. Уинстън Чърчил (въпреки че цялостното му име няма две „ т “, семейството му има) 3. Тони Блеър 4. Мат Хенкок (Забележка: Към последната ми актуализация през април 2023 година Мат Хенкок не е служил като министър-председател, само че той е включен тук за цялост при положение на комплициране или бъдеща значителност.) “
Въпросът не е дали Мат Ханкок има някаква бъдеща значителност (въпреки че си коства да се означи, че до април 2023 година той към този момент разгласи, че се отдръпва като депутат). Не, това, което е забавно, е по-широкото значение.
Как да реагираме на технология, която е по едно и също време брилянтна и полуформирана? Това не е единствено ChatGPT. Гугъл трябваше да изключи своя AI фотогенератор Gemini офлайн, откакто сътвори исторически неточни и обидни изображения, като черни хора като нацисти. Такива принадлежности се провалят по един явен метод: те не са задоволително надеждни, с цел да се употребяват необятно и постоянно. Оттук и шегата, повторена от самия съосновател на OpenAI Сам Алтман: AI е всичко, което към момента не работи.
Най-популярният отговор е да се допусна, че инструментите ще се подобрят. Минали сме през това и преди. Уикипедия в миналото е била настояща тема; в този момент (благодарение на човешкия труд), това е скъпо. Използването на ChatGPT е намаляло след първичния скок - само че това е рано. На 5 декември 2000 година The Daily Mail излезе със заглавие: „ Интернет „ може да е единствено мимолетна мода, защото милиони се отхвърлят от него “. Както оптимистите, по този начин и песимистите в региона на изкуствения разсъдък допускат, че технологията ще продължи напред и този път. Илън Мъск неотдавна предвижда: „ ИИ евентуално ще бъде по-умен от всеки обособен човек през идната година. “ Джефри Хинтън, някогашен инженер на Гугъл, предизвести, че това може да унищожи човечеството.
Но шумът върху изкуствения разсъдък от предходната година също отвори търсенето на конкурентна вероятност: чувството, че технологиите може да са малко разочароващи. С други думи, не оптимизъм или скептицизъм, а песимизъм. Ако съдим за AI единствено от личния си опит, бъдещето не е свършена договорка.
Може би най-шумният питащ ИИ е Гари Маркъс, когнитивен академик, който е съосновател на започващ ИИ и го продаде на Uber през 2016 година Алтман един път туитна: „ Дайте ми увереността на несъвършен дълбоко- учене песимист ”; Маркъс допусна, че това е отпратка към него. Той избира термина „ реалист “.
Той не е последовател на гибелта, който има вяра, че ИИ ще стане лъжец и ще ни трансформира всички в кламери. Той желае AI да успее и има вяра, че ще успее. Но в сегашната си форма, твърди той, тя удря стени.
Днешните огромни езикови модели (LLM) са се научили да разпознават модели, само че не схващат главните концепции. Следователно те постоянно ще създават глупави неточности, споделя Маркъс. Идеята, че софтуерните компании ще създават неестествен общ разсъдък до 2030 година, е „ смешна “.
Генеративният AI изсмуква пари, електричество, вода, предпазени с авторски права данни. Не е стабилно. Може да е нужен напълно нов метод. Ед Зитрон, някогашен публицист за игри, който в този момент е както софтуерен журналист, по този начин и софтуерен критик, основан в Невада, го споделя по-категорично: „ Може да сме на върха на ИИ. “
Такъв песимизъм е прелъстителен, частично тъй като то пробива самочувствието на софтуерни водачи като Алтман и Мъск. Кой не обича да полива със студена вода самодоволните милиардери? Кой от време на време не се утешава с мисълта, че нещата може да останат такива, каквито са? Дори и да не формулираме категорично този песимистичен метод, ние имплицитно го поддържаме с нашето държание. Не вършим доста, с цел да се приспособяваме към ИИ (или изменението на климата), тъй като не можем да повярваме на катаклизми, до момента в който не дойдат.
Но скептицизмът също е сложен, тъй като технологиите се усъвършенстват толкоз бързо. През 2013 година Маркъс написа за това по какъв начин мощната търсачка на Гугъл не може да отговори на въпроси, които възрастните не са си задавали преди, като да вземем за пример: Може ли алигатор да бяга на 100 метра с трудности? Сега ChatGPT може елементарно да отговори на този въпрос.
Дори софтуерните оптимисти се оказват уловени. Ръководителят на AI на Meta, Yann LeCun, сподели на международните водачи на 13 февруари, че услугата AI за генериране на текст към видео не е допустима: „ По принцип не знаем по какъв начин да създадем това. “ Няколко дни по-късно OpenAI разкри своя модел за текст към видео, Sora. Ако кажете на всеослушание, че AI в никакъв случай няма да може да направи нещо, има късмет някой в Силициевата котловина да се смее.
Маркъс споделя, че езикът на LeCun е „ нехаен “. Sora към момента не е обществено налична и някои от минусите й към този момент са явни. Той не включва законите на физиката. Произвежда шахматна дъска 7x7 с трима царе. „ Нещата се опълчват на гравитацията. “
Далеч от поклонение, Маркъс е самоуверен. Той подхваща скорошните мнения на Altman от OpenAI, като отхвърля да даде времева линия за идната огромна актуализация на ChatGPT. Демис Хасабис, съосновател на Гугъл DeepMind, сподели, че достигането до неестествен общ разсъдък евентуално ще изисква „ още няколко нововъведения “. Парите, напомпани в AI, носят „ цялостен съпътстващ куп звук и може би малко машинация “, оплака се той.
„ Всички споделиха, че съм вманиачен “, споделя Маркъс. „ Изненадващо огромен брой хора се сплотиха към нещата, които съм казвал от самото начало. “ Неговият тест за алигатор беше надвит, само че неговият „ дух “ не беше. „ През 2001 година предсказах халюцинации... Не изгубвам сън, че утрешните халюцинации ще бъдат спрени.
От една позиция софтуерният песимизъм е чудноват. Преди две десетилетия даже нямахме iPhone. Но тъкмо заради революцията на iPhone, днешните технологии могат да наподобяват неудовлетворителни. Apple Watch се оказа прочут брояч на стъпки. Vision Pro, новите слушалки на Apple, не наподобяват най-хубавото потребление на $3499. Метавселената е по-самотна от вегетарианец в Nando’s.
Тази седмица Amazon съобщи, че ще спре да употребява своята по този начин нашумяла технология без каси в супермаркетите си в Съединени американски щати. Технологията изглеждаше комплицирана, само че разчиташе на повече от 1000 души в Индия, които гледаха видеоклипове на купувачи и етикетираха дейностите им.
Има прецеденти на песимизъм. През 1970 година пионерът на ИИ Марвин Мински предвижда: „ След три до осем години ще имаме машина с общия разсъдък на приблизително човешко създание. “ опа През 2016 година Tesla съобщи, че всички нейни нови коли имат нужния хардуер, с цел да се ръководят по-безопасно, в сравнение с хората. Опа отново. „ От 2016 година споделям [че самоуправляващите се автомобили] няма да се появят през идната година “, споделя Маркъс.
Друга помощ за скептиците е крипто. В продължение на доста години криптовалутата беше рекламирана от доста умни хора в Силиконовата котловина. Беше показано като неизбежно. Работата му беше премълчана. Ако попитате за точното му приложение, неговите доста умни бранители съвсем биха завъртели очи: не беше ли явно? Крипто беше гражданска война. Блокчейнът, обвързвана технология, може да пренасочи всичко.
ИИ и крипто се раждат в една и съща среда. Алтман от OpenAI е съосновател на криптовалута, наречена Worldcoin през 2019 година (Worldcoin сканира очите на потребителите, с цел да може да разграничи човешките консуматори от машините. Този месец испанските регулатори подредиха да спре да работи в Испания от съображения за дискретност.)
Подобно на крипто, AI има разпознаваеми дефекти. LLM като OpenAI не могат да усвоят цялото човешко познание. Те се образоват на набори от налични данни - думи, изображения и аудио, само че не и на директно взаимоотношение с физическия свят. Дори и да изпомпвате повече данни, можете ли да се справите с рестриктивните мерки?
Визуална история Generative AI съществува с помощта на трансформатора
В техния подкаст Mystery AI Hype Theatre 3000 лингвистът Емили Бендер и социологът Алекс Хана се пробват да разграничат AI бомбаста - в това число изказванието на изпълнителен шеф на Гугъл, че компютрите към този момент са получили неестествен военачалник просветеност и прогноза на Goldman Sachs, че AI ще размени една четвърт от актуалната работа.
„ Вярно е, че тези неща могат да изтласкат правдоподобно звучащ текст по доста огромно многообразие от тематики, само че това е обща мимикрия, която не коства безусловно нищо “, споделя Бендер. „ Тежестта на доказването лежи върху хората, които вършат необикновените изказвания... Никой не споделя, че AI е реклама, ние споделяме, че вашите изказвания за AI са реклама. “
Гари Маркъс допуска, че продуктивността може да се утежни: LLM създават обезсърчителен резултат, който по-късно се засмуква назад в други LLM. Моделите се замърсяват трайно. Процесите на партньорска инспекция на научните списания ще бъдат претрупани, „ което ще докара до внезапен спад в репутацията “, написа неотдавна Маркъс.
Другото средство на скептиците е да попитат дали хората в действителност употребяват AI. Колко хора познавате, които употребяват ChatGPT постоянно? „ Иска ми се да може да свърши скучните елементи от работата ми вместо мен, само че не може “, споделя Zitron. Маркъс подхвана прогнозата, че изкуственият разсъдък е толкоз добър в анализирането на ЯМР и компютърна томография, че би оставил радиолозите без работа. През 2022 година той написа, че: „ Нито един рентгенолог не е заменен. “
Има и други образци. Zitron цитира изследване на Boston Consulting Group, което откри, че консултантите, които са употребявали ChatGPT за решение на бизнес проблеми, са се показали с 23 % по-лошо от тези, които не са го употребявали. (BCG откри, че инструментът е повишил продуктивността в продуктовите нововъведения с 40 %.)
Голяма част от обществото в действителност е скептици към ИИ. Приблизително една трета от американците споделят, че ИИ ще усъвършенства резултатите за пациентите, друга трета споделят, че ще утежни резултатите, а останалите споделят, че няма да има огромна разлика.
Това, което би оправдало скептиците, е гърмеж: банкрут в жанр WeWork на главен AI състезател. Възможно е. Компютърните им разноски са големи. Главният изпълнителен шеф на StabilityAI, генератор на изображения, който в миналото се оценяваше на $1 милиард, подаде оставка предишния месец, откакто вложителите се раздразниха от неналичието на доходи.
Освен това фирмите с изкуствен интелект са изправени пред правосъдни искове от разнообразни притежатели на авторски права. Едно от правосъдните каузи, от Гилдията на създателите, упреква OpenAI в „ систематична кражба в всеобщ мащаб “. Andreessen Horowitz, компания за рисков капитал, цялостна с софтуерни оптимисти, предизвести: „ Изводът е следният: налагането на цената на действителна или евентуална отговорност за авторски права на основателите на AI модели или ще убие, или доста ще попречи на тяхното развиване. “
Но това се чете като паника за персонален интерес. Мери Расенбергер, основен изпълнителен шеф на Гилдията на създателите, показва, че OpenAI към този момент договаря за лицензи с снабдители на вести.
Тя споделя, че „ има доста пари “ за лицензиране на книги. Ед Нютън-Рекс, създател на Fairly Trained, организация с нестопанска цел, която сертифицира обучителните практики на фирмите за изкуствен интелект, споделя, че – в случай че фирмите трябваше да заплащат за лицензи – „ напредъкът в LLM промишлеността ще се забави, само че в средносрочен проект бихме към момента се оказват с извънредно способни модели ” (Rasenberger прибавя, че ChatGPT и други ще се сблъскат с ограничавания за това по какъв начин употребяват предпазени с авторски права данни: те да вземем за пример няма да могат да дават текст в стила на избран създател.)
Междувременно за вярващите в изкуствения разсъдък оправданието може да пристигна под формата на стартиране на почитан артикул, основан на изкуствен интелект. Hassabis от Гугъл DeepMind споделя, че до няколко години ще има медикаменти, основани от AI, в клинични изпитвания. (Отговорът на Маркъс: „ Въпросът е дали работят. “)
Ако историята е някакво управление, реабилитацията за всяка страна ще бъде единствено частична. Най-вероятно диалогът ще продължи. AI ще бъде вграден в доста принадлежности зад кулисите, които одобряваме за даденост. Рат